首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   14691篇
  免费   712篇
  国内免费   1078篇
系统科学   1257篇
丛书文集   348篇
教育与普及   127篇
理论与方法论   53篇
现状及发展   194篇
综合类   14494篇
自然研究   8篇
  2024年   28篇
  2023年   153篇
  2022年   219篇
  2021年   264篇
  2020年   289篇
  2019年   232篇
  2018年   260篇
  2017年   277篇
  2016年   273篇
  2015年   436篇
  2014年   697篇
  2013年   505篇
  2012年   792篇
  2011年   903篇
  2010年   647篇
  2009年   774篇
  2008年   853篇
  2007年   1203篇
  2006年   1215篇
  2005年   1084篇
  2004年   978篇
  2003年   830篇
  2002年   673篇
  2001年   502篇
  2000年   431篇
  1999年   336篇
  1998年   245篇
  1997年   227篇
  1996年   167篇
  1995年   188篇
  1994年   142篇
  1993年   135篇
  1992年   109篇
  1991年   96篇
  1990年   84篇
  1989年   83篇
  1988年   53篇
  1987年   53篇
  1986年   30篇
  1985年   7篇
  1984年   1篇
  1983年   1篇
  1981年   3篇
  1955年   3篇
排序方式: 共有10000条查询结果,搜索用时 31 毫秒
1.
为提高甚高频数据交换系统(very high frequency data exchange system, VDES)中应用特定消息(application-specific messages, ASM)的解码性能, 提出一种基于循环冗余校验(cyclic redundancy check, CRC)的改进维特比纠错算法。通过合理降低符号状态数和使用部分CRC参与纠错, 使该算法平衡了纠错性能和计算量, 同时提出了新的分支度量以解决过于理想化的传统分支度量导致的性能损失。仿真表明, 新分支度量相比传统分支度量提升了1 dB的误帧率(packet error rate, PER)性能, 在用12个CRC寄存器参与纠错的条件下,该方法比相干解调算法提升了1 dB的PER性能, 同时通过合理的符号状态数降低策略将计算量降为传统算法的1/4。  相似文献   
2.
3.
在加速寿命试验的可靠性设计中, 随机化设计的限制以及删失数据不可避免地导致低分位数估计出现较大的偏差。针对上述的问题, 结合贝叶斯抽样技术以及非线性混合模型(nonlinear mixed model, NLMM)提出了一种可靠性改进的分析方法。首先, 需要检验所收集的数据是否服从威布尔分布以及验证形状参数是否是恒定常数。其次, 考虑随机效应对尺度参数和形状参数的影响, 运用NLMM构建了尺度参数和形状参数与试验因子之间的函数关系。然后, 利用贝叶斯方法估计低分位数的可靠性寿命。最后, 实际案例研究表明, 在考虑删失问题和未完全随机设计的影响时, 所提方法能够获得更为稳健和可靠的估计结果。  相似文献   
4.
本研究指出,教师资格考试是我国教师准入管理制度的重要环节,师范生教师资格证的获得是师范生职业发展的第一道门槛.本研究通过建立教师资格证考试内容与大学学科课程的对应关系,采用基于密度的离群点检测算法模型,以数学与应用专业学生的课程成绩为实验样本进行数据挖掘分析,识别学业危机学生.研究结果表明,该预警方法可以识别出教师资格获得危机学生,引起学生对教师资格证考试备考的重视,为教师提供预警干预学生的依据,有利于教师精准施教.该预警方法对离群特征显著的学生预测可达到100%,对离群特征不明显的学生识别率较低,算法有待修正.  相似文献   
5.
D-S证据理论可应用于多源数据融合领域,但在处理高度冲突的证据时,可能会出现反直觉的结果.为解决这一问题,本文提出了差异信息量的概念及融合方法.首先,通过信息熵表明证据的相对重要性,采用散度获取证据可信度.然后利用证据可信度优化证据差异度以得到差异信息量,经过计算获取数据的最终权重,并将其作为D-S证据理论中的基本概率分配进行决策.在处理冲突证据、一致证据及不同数量证据等方面的数据融合问题时与其他方法对比,所提方法收敛更快,准确度更高.故障诊断的应用实例表明,所提方法的不确定性更小,优于现存的其他方法.  相似文献   
6.
针对空时分组码(space-time block code, STBC)识别中多种编码类型难区分的问题, 提出了一种基于卷积神经网络的STBC盲识别算法。该算法首先将接收信号采用自相关函数的频域预处理, 输入到卷积神经网络中对信号特征进行提取, 全连接层对特征进行映射, 实现对6种STBC类型的识别。仿真实验结果表明, 在无信道和噪声等先验信息的条件下, 所提算法能够有效区分3种相似度高的STBC3码, 且将STBC可识别的编码类型由目前的4种扩充到6种, 识别准确率能达到96%。该方法的复杂度较低, 不需要利用大量样本数据, 实时性高, 具有较好的工程应用价值。  相似文献   
7.
介绍了图书馆科研支持服务的背景,分析了国外图书馆科研支持服务的种类,举例说明了国外图书馆科研支持服务的具体实践.  相似文献   
8.
在高海拔区域测制地形图,如青藏高原地区,所获取的遥感影像局部存在着大范围的高山阴影或云雪覆盖,造成立体观测地貌困难的现象,探讨应用SRTM数据对这类特殊区域地貌进行修测补绘。介绍了数据处理的作业过程,并对实验区SRTM与SPOT5影像立体测图成果进行实验对比分析,成果符合要求。  相似文献   
9.
巨灾风险大数据处理应急分类、分解、分拣算法与应用   总被引:1,自引:0,他引:1  
本文主要研究巨灾风险大数据处理的应急分类、分解、分拣算法,给出了相应的算法原理和可操作的步骤.首先根据巨灾风险大数据灾害规模巨大的特征,提出了一种用来解决巨灾风险大数据中一级事件的应急分类与二级事件及以下更低级事件的应急分解算法,并以特大地震灾害作为实例进行了算法应用.接着定义了事故灾难度,用来对巨灾风险大数据处理过程中,对各种级别的事故灾难后果进行不同的数字标识.然后提出一种用来解决巨灾风险中大数据快速处理的应急分拣算法,并在汶川地震中大规模灾害的应急救援计划中进行应用.经过采用这样的应急分拣原理,就可以在面对巨灾风险大数据的复杂、繁多和零乱的重灾事件状态下,使整个应急救援方案优化,并能够有条不紊地进行救援.  相似文献   
10.
seismites,按其字面意思理应翻译成地震岩,即与地震有成因联系或受发震断裂改造、变形的岩石。按发震时地质材料的固结程度与力学性质,地震岩可分为震积岩(地震时尚未固结成岩的含水沙土层,即软沉积物)和脆性断层岩(地震时已经固结成岩的沉积岩、岩浆岩和变质岩)。脆性断层岩包括断层角砾岩、碎裂岩、超碎裂岩、假熔岩和断层泥等。发育由沙土液化形成的软沉积物变形构造的沉积岩,统称为“沙土液化岩”(liquefactites),但是长期以来一直被误译为seismites。大量的研究表明,并不是所有的沙土液化和软沉积物变形都是由地震造成的,也并不是所有地震都能导致沙土液化。只有那些所在区域存在重要发震断层、真正由地震引起的区域性的沙土液化造成的软沉积物发育变形构造的岩层才能称之为震积岩(seismic liquefactites)。震积岩不应再翻译成seismites。零星出现的软沉积物变形构造与沙土液化构造(例如:砂涌丘)不足以作为古地震的证据。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号